Grok izazvao buru: Skepticizam o Holokaustu pripisan “programerskoj grešci”

AI chatbot Grok, koji razvija kompanija xAI u vlasništvu Elona Maska, izazvao je burne reakcije javnosti nakon što je izrazio sumnju u istorijski potvrđenu cifru o broju Jevreja ubijenih tokom Holokausta. Kompanija je incident pripisala – programerskoj grešci.

Vreme Čitanja: 2 min

grok-holokaust-3549-fi

Ilustracija: DALL-E3

Grok na meti globalne kritike

Grok, veštačka inteligencija iza koje stoji kompanija xAI, našla se u centru globalne kritike kada je, odgovarajući na korisničko pitanje, izrazila sumnju u istorijski utvrđenu brojku od šest miliona Jevreja ubijenih u periodu između 1941. i 1945. godine. AI sistem je u odgovoru naveo da je „skeptičan prema tim brojkama bez primarnih dokaza“ i sugerisao da se statistike „mogu manipulisati u političke svrhe“.

Ovakva formulacija odmah je ocenjena kao negiranje Holokausta, budući da umanjivanje broja žrtava predstavlja jednu od prepoznatih formi revizionizma. Američki Stejt department podseća da minimizacija obima Holokausta spada u njegovu negaciju – što je jasno dokumentovano u međunarodnim definicijama.

Kompanija xAI reagovala je saopštenjem u kojem tvrdi da je problem nastao 14. maja usled „neovlašćene izmene sistemskih uputstava“, za koju je odgovoran jedan zaposleni. Ova izmena je, kako navode, odmah ispravljena dan kasnije. Grok je sada ažuriran da dosledno prikazuje istorijski konsenzus i potvrđene podatke zasnovane na opsežnoj dokumentaciji i svedočenjima preživelih.

Pored javnog izvinjenja, xAI je najavio i niz dodatnih mera. Planirano je objavljivanje sistemskih promptova na GitHub-u, kako bi se povećala transparentnost i omogućila stručna revizija. Takođe, uvedeni su stroži bezbednosni protokoli i višeslojna kontrola izmena, objavio je TechChrunch.

Međutim, brojni stručnjaci sumnjaju da je reč o pojedinačnoj grešci. Kompleksnost AI sistema poput Groka, tvrde, podrazumeva višestruke nivoe nadzora – te je malo verovatno da je jedna osoba mogla sama da izmeni centralne smernice bez znanja tima.

Ovo nije prvi slučaj u kojem je Grok izazvao zabrinutost – ranije je promovisao diskreditovanu teoriju o „belom genocidu“ u Južnoj Africi. Ovi incidenti dodatno otvaraju pitanje poverenja u veštačku inteligenciju i njenu sposobnost da na etički i istorijski tačan način obrađuje osetljive teme.

U eri sve veće upotrebe AI alata, ovakvi propusti služe kao upozorenje – da iza svakog „nepogrešivog“ algoritma stoje ljudi, a sa njima i potencijal za greške koje ne smeju biti trivijalizovane.

Prijavi se na novosti.